PARTICULES (ACCÉLÉRATEURS DE)


PARTICULES (ACCÉLÉRATEURS DE)
PARTICULES (ACCÉLÉRATEURS DE)

Les modèles et théories qui synthétisent notre compréhension actuelle de la matière et de ses constituants élémentaires – molécules, atomes, particules – ont été confrontés à une multitude d’observations expérimentales. Pour réaliser ces expériences, c’est-à-dire observer l’infiniment petit, on utilise des sondes appropriées capables de pénétrer la matière et d’interagir avec sa structure ultime.

Quoi de plus logique que de bombarder la matière avec les objets les plus petits qui soient: des particules?

Les premières expériences suivirent la découverte de la radioactivité naturelle, qui permit de disposer de sources de particules de faible vitesse: particules 見 ou noyaux d’hélium (rayonnement 見) et électrons (rayonnement 廓). La physique nucléaire expérimentale démarra avec l’étude des effets de ces rayonnements sur les noyaux atomiques. Très vite, on éprouva le besoin de changer les paramètres des expériences, donc de disposer de faisceaux plus intenses, mieux focalisés, et surtout réglables en énergie. L’unité élémentaire de mesure pour cette dernière est l’électronvolt (1 eV = 1,602 憐 10-19 J), ainsi que ses multiples (keV, MeV, GeV, TeV, etc.). L’idée de construire des accélérateurs, c’est-à-dire de créer un faisceau de particules puis de l’accélérer, était née. Ces machines se sont donc développées pour les besoins de la recherche fondamentale en physique nucléaire.

L’histoire des accélérateurs commence en 1930, avec les premiers appareils électrostatiques. Une série d’inventions techniques permet de repousser les limitations inhérentes à l’utilisation de hautes tensions et d’atteindre le mégaélectronvolt. En parallèle, le cyclotron fait son apparition. La multitraversée de l’espace accélérateur fait gagner un facteur dix en énergie (fig. 1).

Dans un premier temps, la Seconde Guerre mondiale freine l’effort entrepris. En revanche, elle donne une justification supplémentaire à la physique nucléaire dont les progrès sont essentiels pour la maîtrise de l’énergie nucléaire à des fins pacifiques ou militaires. De plus, la guerre a entraîné des investissements technologiques très importants, en particulier dans le domaine des sources radiofréquences de puissance (radars) qui vont être à l’origine du développement des accélérateurs linéaires à 200 et 3 000 mégahertz. Vers 1950, la course à la haute énergie reprend avec les premières machines circulaires du type synchrotron, pour accélérer des électrons, puis des protons, au-delà du gigaélectronvolt. C’est le début de l’ère des grands accélérateurs, avec la création de plusieurs laboratoires aux États-Unis (Berkeley, Brookhaven...). En 1954, les pays européens décident de mettre leurs moyens en commun, et créent le Conseil européen pour la recherche nucléaire (C.E.R.N.), à Genève – qui est devenu le Cern, le Laboratoire européen pour la physique des particules. À ces énergies, des détails de plus en plus fins de la matière peuvent être observés. On peut maintenant s’intéresser aux constituants du noyau, et les grands accélérateurs deviennent aussi les outils de base pour les physiciens des particules élémentaires. Les résultats expérimentaux sont largement à la mesure des moyens mis en œuvre. Les années 1960 sont infiniment riches en constructions d’accélérateurs et en découvertes expérimentales. La liste des nouvelles particules élémentaires ne cesse de s’allonger et des théories s’élaborent pour rendre compte de la nouvelle vision du monde subnucléaire. Les énormes forces entre particules mises en jeu demandent des énergies de plus en plus élevées pour tester la validité des modèles théoriques.

Pendant la décennie de 1970, le mouvement vers la haute énergie continue, à la demande des physiciens des particules élémentaires. Les futures expériences ne se feront plus en envoyant le faisceau après accélération sur une cible fixe; pour gagner en énergie disponible, dans le centre de masse de la réaction, des collisionneurs seront désormais employés. Ce sont des machines dans lesquelles circulent en sens inverse un faisceau de particules et un faisceau d’antiparticules. Les deux faisceaux sont mis en collision au niveau du détecteur de physique intégré à l’accélérateur. Les quarks et autres particules élémentaires sont découverts. Néanmoins, le gigantisme de la nouvelle génération de machines nécessaires, combiné aux problèmes économiques, amène les scientifiques à se remettre en cause. Des choix sont indispensables, et il devient important de se concerter au niveau international dans un souci de complémentarité et, également, de se demander si la fin justifie les moyens. Cette réflexion et cette remise en cause sont d’autant plus nécessaires que la physique nucléaire reste à l’écart de ce mouvement vers la très haute énergie et réclame, elle aussi, des accélérateurs d’énergie intermédiaire.

On diversifie les projectiles, en utilisant abondamment les faisceaux de particules secondaires (mésons, kaons, antiprotons), ou en accélérant des particules polarisées. La physique du noyau, qui était restée un peu dans l’ombre des particules élémentaires, revient en force. De nombreux laboratoires se constituent autour d’accélérateurs à ions lourds pour une physique plus macroscopique de la matière nucléaire, à des énergies voisines ou légèrement supérieures à la barrière coulombienne.

Parallèlement à l’utilisation intensive des accélérateurs pour les besoins de la physique nucléaire et des particules élémentaires, des applications pour de nouveaux domaines de recherche commencent à émerger.

Les collisionneurs à électrons-positrons de la première génération, peu à peu délaissés par les physiciens des particules élémentaires, parce que de trop faible énergie, sont tout d’abord utilisés de façon parasitaire et ensuite totalement accaparés par les utilisateurs de lumière synchrotron. Cette lumière, dont le spectre couvre une large gamme de longueur d’ondes, du visible aux rayons 塚, est émise par les particules à la traversée des champs magnétiques de guidage. Elle a des propriétés remarquables pour l’étude de la matière condensée, inerte ou vivante, et intéresse une grande variété de domaines de la science.

Des applications plus pratiques pour les accélérateurs se développent. En médecine, les premières expériences de traitement du cancer par des ions lourds ont lieu aux États-Unis, tandis que des industriels mettent sur le marché des cyclotrons pour traitement à partir de particules secondaires (neutrons ou pions). Des cyclotrons de même type servent à la production de radio-isotopes, en pharmacologie et en biologie (étude de divers métabolismes), ou encore pour des analyses fines industrielles ou scientifiques (érosion, dépôts, pollution, datation, archéologie...). On imagine l’utilisation d’accélérateurs pour la stérilisation (produits alimentaires, appareils chirurgicaux...). Depuis 1980, les tendances se confirment.

La physique des particules élémentaires a déjà bénéficié de quatre supercollisionneurs: trois machines électrons-positrons, le L.E.P. (Large Electron Positron Collider) au Cern, le S.L.C. (Stanford Linear Collider) à Stanford (États-Unis) et Tristan à Tsukuba (Japon), et une machine électrons-protons, Hera à Hambourg. On prépare déjà l’an 2000 avec des projets encore plus gigantesques de collisionneurs protons-antiprotons à 10 ou 20 TeV par faisceau. Malgré les progrès technologiques considérables réalisés dans l’utilisation d’aimants ou de cavités accélératrices supraconducteurs, la taille des machines ne cesse de croître et dépassera les 100 km avant la fin du millénaire. Pour aller encore plus loin, il faut imaginer des principes nouveaux, permettant de gagner au moins un ordre de grandeur sur l’efficacité des accélérateurs. La physique nucléaire se concentre sur les énergies intermédiaires et diversifie ses outils: plusieurs cyclotrons à ions lourds, utilisant des électroaimants supraconducteurs pour les plus récents, des machines à électrons à flux continu et très intense. Les projets pour la prochaine décennie concernent des usines à particules secondaires, kaons, neutrinos, antiprotons...

On assiste à un développement exceptionnel de l’utilisation du rayonnement synchrotron. De nombreuses machines, délivrant des faisceaux intenses et brillants de photons dans les domaines de l’ultraviolet du vide et des rayons X mous, ont été construites. L’utilisation d’aimants spéciaux, wigglers et onduleurs, permet d’obtenir des sources de rayonnement réglables de qualité exceptionnelle. Les machines de la prochaine génération se proposent de gagner plusieurs ordres de grandeur sur la qualité des faisceaux de photons. Parmi elles, citons la machine européenne E.S.R.F. (European Synchroton Radiation Facility), à Grenoble, ainsi que des projets comparables aux États-Unis et au Japon.

L’utilisation des accélérateurs pour des applications pratiques, en particulier en médecine et en pharmacologie, s’intensifie. Des projets sur l’incinération, par bombardement avec un faisceau de protons, des déchets radioactifs à longue durée de vie sont à l’étude. On pense également à de nouvelles filières pour la production d’énergie, comme la fusion inertielle par ions lourds. Les grands groupes industriels s’installent en force autour des sources de lumière synchrotron. Plusieurs machines pour la production de circuits intégrés submicrométriques (microlithographie par rayons X) sont en construction.

Pendant une soixantaine d’années, du premier Cockcroft-Walton de 1930, petit appareil de laboratoire, au L.E.P. de 1988, gigantesque machine de 27 km de circonférence, les accélérateurs se sont développés pour satisfaire principalement les besoins de la physique nucléaire et de la physique des particules élémentaires. Ils ont intimement contribué à notre vision moderne du monde nucléaire et subnucléaire, et représentent un parc immense d’outils conçus à partir de théories et de techniques très élaborées. Leur application à d’autres disciplines et à l’industrie se poursuit. Les prochaines années ouvrent l’ère de la diversification.

1. Principes généraux

Un accélérateur de particules est un instrument qui permet de communiquer de l’énergie à un faisceau de particules. A priori, on ne saurait agir sur une particule neutre. En revanche, pourvu qu’elle porte une charge, une particule est sensible à l’action d’un champ électrique E ou d’un champ magnétique B. Fabriquer un accélérateur consiste à interposer sur la trajectoire d’un faisceau un champ électromagnétique.

L’équation vectorielle qui régit la dynamique d’une particule chargée dans un champ électromagnétique est de la forme:

= m 轢v est le vecteur quantité de mouvement, m la masse de la particule,v le vecteur vitesse et q la charge.

つ et ち ont des actions très différentes sur le mouvement. À la traversée d’un champ électrique つ, le module du vecteur est modifié: il y a accélération parallèlement à つ. En revanche, à la traversée d’un champ magnétique d’induction ち, du fait du produit vectoriel par le vecteur vitessev, le module de ne change pas. Le champ magnétique ne fait que modifier l’orientation du vecteur . La manière de distribuer les champs électromagnétiques dépend fondamentalement de la particule considérée, qui peut aller de la plus légère des particules – l’électron 漣, à la plus lourde – l’ion uranium. Elle dépend aussi beaucoup de la gamme d’énergie à couvrir avec l’accélérateur. L’énergie finale est le plus souvent obtenue en mettant bout à bout plusieurs types d’accélérateurs.

Le premier étage est bien évidemment la source de particules. Pour les électrons, des surfaces thermomissives sont employées, pour les protons et les ions, des plasmas denses. Une fois les particules créées, il faut les extraire de la source. Cette extraction se fait par l’intermédiaire de champs électriques qui communiquent aux particules leur première accélération et, en général, les focalisent. Le faisceau doit circuler dans une chambre à vide. En effet, il est fondamental d’éviter que les particules soient déviées ou perdues par diffusion ou interaction avec les molécules d’un gaz. Le vide requis dépend des probabilités de détérioration du faisceau sur la longueur de trajectoire et varie de 10-4 à 10-10 pascal, soit environ de 10-6 à 10-12 mmHg.

Action du champ électrique

Si, entre deux électrodes, on crée une différence de potentiel V, une particule de charge + q créée au niveau de l’électrode positive V sera accélérée par le champ électrique. Elle se déplacera à vitesse croissante vers l’électrode de masse (fig. 2).

Le bilan de la traversée de cette différence de potentiel est un gain d’énergie W = q V, qui se mesure en électronvolts (eV). Lorsqu’il s’agit d’une particule lourde dont le noyau est composé de A nucléons, on se réfère le plus souvent à l’énergie par nucléon:

exprimée en eV/A, keV/A, etc.

Induction magnétique et guidage des particules

Si, entre les deux pôles d’un aimant, règne un champ d’induction magnétique homogène B, une particule de charge q , de masse m et de vitesse v décrit une trajectoire circulaire de rayon r (fig. 3):

p /q étant la rigidité de la particule.

Avec une succession de secteurs à champ homogène dipolaire, on courbe l’axe du faisceau et on guide les particules chargées tout au long d’une ligne de transport.

Toutefois, à l’origine de la ligne de transport, les particules qui constituent le faisceau n’ont pas les mêmes conditions initiales. Le faisceau a des dimensions transverses en position et en angle. Pour l’empêcher de diverger, et maintenir tout au long de la ligne des dimensions transverses raisonnables autour de l’axe faisceau, on introduit des lentilles de focalisation. L’effet focalisant recherché peut être obtenu en insérant une lentille magnétique quadrupolaire (quadrupôle) sur l’axe du faisceau (fig. 4 a et b).

Dans ce type d’élément, le champ magnétique est proportionnel à la distance par rapport à l’axe de la lentille. La distance focale f s’exprime en fonction du gradient d’induction transverse G de la lentille, de sa longueur L et de la rigidité p /q de la particule:

Il est à noter que les distances focales dans les plans x et z de symétrie de la lentille sont de signe opposé: en d’autres termes, si la lentille focalise dans le plan x , elle défocalise dans le plan z .

On peut combiner les deux effets de courbure et de focalisation dans un électroaimant unique de type dipolaire mais dont les pièces polaires ne sont pas parallèles. Une méthode différente consisterait à faire passer le faisceau décentré à travers un quadrupôle.

L’optique des faisceaux de particules chargées dans un champ magnétique est semblable à l’optique des faisceaux lumineux. Les prismes de l’optique classique sont remplacés par les dipôles magnétiques, les lentilles par les quadrupôles magnétiques. On retrouve l’équivalent de la dispersion chromatique à la sortie d’un prisme, l’équivalent des aberrations liées aux défauts de réalisation des éléments optiques, etc.

Il est important de signaler que le champ électromagnétique effectif qui agit sur une particule a deux origines: le champ extérieur qu’on applique pour guider et accélérer le faisceau par l’intermédiaire d’électroaimants et de tensions, d’une part, et le champ propre du faisceau lui-même, d’autre part. Ce dernier, appelé champ de charge d’espace, a une composante électrique défocalisante (répulsion coulombienne de particules de même charge) et une composante magnétique focalisante (les charges en mouvement constituant un courant qui génère un champ magnétique). À basse vitesse, et principalement au niveau de la source, la force électrique du champ de charge d’espace domine très nettement. Elle limite l’intensité et plus particulièrement la brillance du faisceau. En revanche, à des vitesses proches de la vitesse de la lumière, les deux effets se compensent. À l’échelle du laboratoire, en statique, on sait réaliser des champs électriques de l’ordre de 1 MV/m, des inductions magnétiques de l’ordre de 1 tesla.

En reportant ces ordres de grandeurs dans l’équation de la dynamique:

on voit que, pour des particules ultrarelativistes, v 年 c = 3 憐 108 m/s, un champ magnétique de 1 tesla est trois cents fois plus efficace qu’un champ électrique de 1 MV/m.

Pour transporter un faisceau de haute énergie, on utilise exclusivement des champs magnétiques. Ce n’est qu’aux très basses vitesses, en dessous de:

soit environ 5 ke V/A pour un ion, que les solutions électriques de guidage présentent un intérêt.

Caractéristiques d’un faisceau de particules

Les particules accélérées forment un faisceau caractérisé par:

– Le type de particules qui le constituent (e -, p , d , 見, ion lourd, H-, etc., ou encore e +, p -, etc.).

– L’intensité I proportionnelle au nombre de particules accélérées par seconde.

– Le cycle utile qui définit la fraction de temps pendant laquelle le faisceau est effectivement utilisable pour la physique; c’est un paramètre essentiel pour les accélérateurs pulsés, d’une part, les accélérateurs dont le faisceau présente une microstructure RF, d’autre part.

– L’émittance. Toutes les particules constituant le faisceau ne décrivent pas obligatoirement la même trajectoire; elles terminent leur accélération plus ou moins dispersées dans l’espace à six dimensions qui permet de les repérer: trois coordonnées de position (s ou t , coordonnée longitudinale; x ou z , les coordonnées transversales); trois coordonnées de pente associées ( face="EU Updot" 浪 ou face="EU Updot" 狼 , face="EU Updot" 來 ou face="EU Updot" 勞 qui définissent la divergence). L’origine du repère est attachée au centre de gravité du faisceau. L’émittance est alors définie en projection dans chacun des trois plans de l’espace des phases [s , face="EU Updot" 浪 ], [x , face="EU Updot" 來 ], [z , face="EU Updot" 勞 ]. C’est un ensemble de trois valeurs numériques (une par espace de phase) représentant l’aire inscrite dans un contour renfermant par exemple 95 p. 100 des particules. Pour les deux espaces transverses [x , face="EU Updot" 來 ], [z , face="EU Updot" 勞 ], l’unité utilisée est en général le millimètre 憐 milliradian (mm . mrad). Pour l’espace longitudinal, il existe différentes unités (eV . rad, eV . s, etc.). Remarquons que la coordonnée face="EU Updot" 浪 mesure la dispersion en énergie.

Lorsqu’on accélère un faisceau, on augmente la quantité de mouvement longitudinale p s en laissant inchangées les quantités de mouvement transverses p x et p z . De ce fait, on diminue automatiquement les pentes:

et les émittances diminuent dans le rapport des impulsions longitudinales. L’accélération a un effet amortissant.

Il existe divers types d’accélérateurs. Nous passerons en revue les principaux: accélérateurs statiques, cyclotrons, linéaires, machines circulaires.

2. Les accélérateurs statiques

Le premier accélérateur

Historiquement, le premier accélérateur est le tube de Crookes, inventé dès 1895. Une ampoule de verre dans laquelle on a fait le vide contient une cathode chauffée (source thermo-ionique d’électrons). En face d’elle, une plaque de métal anode, portée à un potentiel positif, attire les électrons qui la frappent et lui font émettre des rayons X (fig. 5).

Le Cockcroft-Walton

Les deux physiciens britanniques John Douglas Cockcroft et Ernest Thomas Sinton Walton obtiennent en 1932 la première désintégration atomique provoquée par des particules artificiellement accélérées. Les protons issus d’une source à ions sont accélérés à l’intérieur d’un tube isolant sous vide dont le sommet, où se trouve la source, est porté à un potentiel de 700 kV par rapport au sol. Arrivés en bas, les protons ont acquis une énergie de 700 keV suffisante pour transmuter du 7Li en deux noyaux d’hélium.

Dans le montage d’origine, la haute tension est obtenue en redressant une tension alternative et en l’amplifiant par une série de condensateurs. Il existe de nombreux Cockcroft-Walton auprès des accélérateurs. Ils ne sont plus utilisés pour faire des expériences de physique mais plutôt pour préaccélérer le faisceau de particules, qui est repris ensuite par les autres étages de l’accélérateur. Les plus puissants Cockcroft-Walton montent jusqu’à environ 2 MV.

Le Van de Graaf

Dans l’appareil de Van de Graaf (1930), on applique les principes de base de l’électrostatique. Les charges électriques sont transportées par une courroie qui les ramasse au sol et va les déposer à l’intérieur d’une électrode élevée et bien isolée. À mesure que les charges s’accumulent, le potentiel de l’électrode supérieure monte. La tenue en tension est favorisée par une atmosphère de gaz inerte sous pression (SF6, 2, etc.). Les performances maximales se situent aux environs de 7 MV.

Il y a eu jusqu’à environ trois cents machines de ce type en activité. On y accélérait des e -, p , d , ions lourds. Elles ont été abandonnées peu à peu, pour de nouveaux types d’accélérateurs.

Le Van de Graaf-tandem

Pour monter en énergie, on peut accoupler deux colonnes isolantes. Un ion négatif, au potentiel du sol, injecté d’un côté, est attiré jusqu’à l’électrode haute tension. À la traversée de cette électrode, on lui arrache un nombre variable d’électrons pour le charger positivement. Continuant son chemin, l’ion est maintenant repoussé par le terminal haute tension et est accéléré vers la sortie opposée à la source. Les sources d’ions négatifs sont moins intenses que les sources d’ions positifs; néanmoins, grâce à ce montage, on gagne en énergie en doublant les dimensions de la machine (fig. 6).

Une des limites essentielles de ces machines est bien évidemment la tenue en tension, qui pose de multiples problèmes technologiques. Il importe d’éviter les claquages qui détériorent la structure. La forme et la disposition des électrodes sont primordiales. Au C.R.N. (centre de recherche nucléaire) de Strasbourg, on construit une machine qui doit établir un record de ce point de vue en atteignant 35 MV. Une autre voie pour augmenter l’énergie finale consiste à accoupler au tandem un postaccélérateur. C’est le principe adopté à Saclay, où la machine principale est suivie d’une série de cavités supraconductrices.

3. Les cyclotrons

Principe des cyclotrons classiques

On a vu que pour accélérer des particules, à l’énergie W, il suffisait d’établir une différence de potentiel V = W/q entre la source et l’électrode de masse. Malheureusement, il est pratiquement impossible d’envisager des accélérateurs statiques fournissant des tensions V supérieures à quelques dizaines de mégavolts.

Dans le cyclotron, la solution adoptée est la traversée par des ions, un grand nombre de fois, de la même différence de potentiel (beaucoup plus faible il est vrai: quelques centaines de kilovolts), en tirant parti de la possibilité qu’offre un aimant dipolaire d’amener les particules chargées sur une trajectoire circulaire.

Un cyclotron est donc constitué d’un dipôle circulaire entre les pôles duquel on place deux électrodes portées à haute tension (fig. 7). La source est au centre de l’aimant. Lorsqu’une particule chargée positivement est émise par la source (fig. 8), elle est, par exemple, attirée par l’électrode 1 si celle-ci est portée à un potentiel négatif par rapport à l’électrode 2. Elle effectue ensuite un demi-tour et elle est de nouveau accélérée, cette fois en direction de l’électrode 2 si celle-ci est, à ce moment, portée à un potentiel négatif par rapport à l’électrode 1. Ainsi, à chaque demi-tour, est-il nécessaire que le signe de la tension interélectrode s’inverse pour que la particule cumule les effets accélérateurs du champ électrique. Une tension alternative est donc utilisée.

Au fur et à mesure que l’énergie, et donc la vitesse des particules, augmente, ces dernières décrivent des cercles de rayon r croissant:

La fréquence de révolution:

est indépendante de la vitesse, le mouvement est isochrone et c’est une tension alternative à fréquence f r constante qu’il convient d’appliquer. On peut aussi choisir f RF = hf r , c’est-à-dire travailler sur un harmonique h de la fréquence de révolution. Pour des raisons pratiques évidentes, h est choisi afin que la fréquence tombe dans la gamme radiofréquence (RF). Nous remarquerons que les particules ne peuvent être accélérées que pendant une demi-période dans un sens de rotation donné. Si, de plus, on veut limiter la dispersion en énergie du faisceau accéléré, il est nécessaire de n’accepter qu’une petite extension en phase RF, 﨏 de quelques degrés. À la sortie de l’accélérateur, le faisceau présente une structure à la fréquence f RF. Le cycle utile est d’environ 1/360.

Lorsqu’on étudie de façon plus approfondie le mouvement des particules dans un cyclotron, on voit apparaître deux problèmes:

– pour assurer la focalisation verticale du faisceau, il est indispensable que le champ magnétique décroisse avec le rayon r ;

– assez vite, lorsque l’énergie des particules croît, les effets relativistes font que la masse m des particules augmente.

Pour ces deux raisons, d’après la relation:

la fréquence de rotation des particules diminue au fur et à mesure de l’accélération. Si donc on maintient f RF constante, on s’éloigne peu à peu de l’isochronisme en se décalant sur l’onde RF et l’efficacité de l’accélération décroît. C’est la limitation essentielle des cyclotrons classiques, les particules ne pouvant y effectuer qu’un nombre limité de tours.

Les cyclotrons isochrones

Pour augmenter l’énergie du faisceau extrait tout en conservant l’isochronisme, il faut une loi:

quel que soit r ; c’est-à-dire accroître l’induction parallèlement à l’augmentation de la masse m pour les rayons r croissants. Bien évidemment, ce procédé va à l’encontre de la focalisation verticale et implique la rupture de la symétrie cylindrique du cyclotron classique pour pouvoir introduire les forces de focalisation verticales sur le faisceau.

Une des méthodes envisageables est la création de zones de champ fort et de zones de champ faible le long des trajectoires, qui ne sont plus tout à fait circulaires. On obtient des cyclotrons à secteurs, avec des collines et des vallées. À la limite, on obtient des cyclotrons à secteurs séparés dans lesquels on a complètement supprimé les zones de champ faible des vallées (fig. 9).

Dans les cyclotrons à secteurs séparés, ou C.S.S., les secteurs ne s’étendent pas jusqu’au centre de la machine. Les espaces entre secteurs (fig. 10) sont alors utilisés pour:

– injecter, axialement, les particules (préaccélérées après extraction de la source) sur le rayon correspondant au premier tour;

– placer les aimants d’extraction;

– introduire les électrodes d’accélération.

Ces problèmes d’isochronisme sont moins sévères lorsqu’on se limite au domaine des basses vitesses. Les cyclotrons représentent donc des machines idéales pour accélérer des particules lourdes ou très lourdes, comme les ions lourds.

On caractérise un cyclotron par le paramètre K défini par:

où Wn max est l’énergie par nucléon maximale atteinte, q le nombre de charges de l’ion et A le nombre de masse de l’ion.

L’expression de K est ainsi:

où Bmax est l’induction maximale, R le rayon moyen de la trajectoire d’extraction et mn la masse d’un nucléon.

Les cyclotrons isochrones, et plus particulièrement les C.S.S., sont des machines souples, bien adaptées à l’accélération de faisceaux d’ions lourds, ayant la possibilité de fonctionner à énergie variable. Pour obtenir des faisceaux de haute énergie, on accouple en série plusieurs cyclotrons avec des échanges de charges entre les différents étages.

Il existe un très grand nombre de cyclotrons en service dans le monde. Certains sont dédiés à l’accélération de faisceaux intenses, de 0,2 à 2,0 mA, de protons à 500-600 MeV. Ce sont des usines à faisceaux secondaires de mésons 神 et 猪 comme le S.I.N. (Schweizerisches Institut für Nuklearforschung) de Zurich ou Triumf à Vancouver. D’autres sont dédiés à la production de faisceaux d’ions lourds; c’est le cas de S.A.R.A. (système d’accélérateur Rhône-Alpes) à Grenoble et G.A.N.I.L. (grand accélérateur national d’ions lourds) à Caen.

La tendance actuelle est à l’utilisation de champs intenses. Derniers-nés de la technique, plusieurs cyclotrons isochrones compacts à aimants supraconducteurs, dont les performances nominales sont dans la gamme de celles de G.A.N.I.L., viennent de démarrer ou sont en construction. Dans le volume cylindrique d’un champ de l’ordre de 5 teslas créé par des enroulements circulaires supraconducteurs, les pièces magnétiques, totalement saturées, créent la modulation de champ. La technologie est rendue délicate par les contraintes cryogéniques et mécaniques, mais aussi par les difficultés d’implanter les organes annexes d’injection et d’extraction.

Du point de vue des intensités délivrées, les performances de pointe se situent dans la gamme de 1013 ions par seconde pour les ions légers et environ cent fois moins pour les ions les plus lourds (fig. 11).

Les premiers cyclotrons sont apparus dans les années 1930. Le principe et l’essentiel des techniques classiques mises en jeu sont bien connus. Plusieurs compagnies, comme la C.G.R.-MeV (Compagnie générale de radiologie) à Buc, proposent sur catalogue un éventail de machines qu’elles peuvent livrer clés en main. Elles fournissent des laboratoires de recherche en physique nucléaire. Toutefois, la plus grosse partie de leur production est destinée à satisfaire des besoins non nucléaires: physique du solide (implantation); médecine (thérapie du cancer); radioéléments artificiels (recherches métaboliques et pharmacologiques); conservation (produits alimentaires); stérilisation (appareils chirurgicaux); chimie (polymérisation des matières plastiques); analyses métallurgiques (étude de défauts, érosion, migration, perméation...); analyses écologiques (pollution); analyses archéologiques (datation).

Le cyclotron est le type d’accélérateur le plus utilisé pour des applications pratiques.

4. Les accélérateurs linéaires

Principes de base des linéaires à protons et ions lourds

Soit une série de tubes cylindriques creux A1, B1, A2, B2, A3, etc., dans l’axe desquels on envoie un faisceau de particules issues de la source K. Si on applique aux tubes une tension alternative, il existera, entre deux tubes successifs, une tension alternative qui sera tantôt accélératrice, tantôt décélératrice.

Il ne saurait être question d’accélérer un faisceau continu. En revanche, il devient possible pour certaines particules de subir une succession d’accélérations si elles passent toujours dans les intervalles entre tubes lorsque la phase du champ électrique est favorable. La présence de ces tubes dits de glissement soustrait les particules à tout champ électrique lorsque celui-ci est de freinage.

En quelque sorte, nous venons de dérouler l’orbite d’un cyclotron. Par analogie, pour conserver le synchronisme entre les particules accélérées et le champ accélérateur, il faut des tubes de glissement de plus en plus longs le long de la structure (on circulait sur les orbites de rayon r croissant dans le cyclotron).

Synchronisme et oscillations de phases

Pour que la particule de référence reste synchrone de la radiofréquence, c’est-à-dire traverse les gaps accélérateurs successifs au même niveau V0 de la tension, il est nécessaire que la longueur L du tube de glissement, la période T de la RF et la vitesse v de la particule vérifient:

Le niveau de tension dans le gap qui va communiquer l’énergie q V0 à la particule et changer sa vitesse v est obtenu à deux instants t M1 et t N1 par période RF (fig. 12 a). Si seules les particules passant rigoureusement à ces instants étaient correctement accélérées, leur nombre serait infiniment petit. Mais analysons qualitativement ce qui se passe pour des particules passant à des instants voisins de t M1: t P et t P size=1 par exemple. Une particule arrivant en P est en avance sur la référence M1; or elle est en présence d’une tension accélératrice inférieure à V0. Elle sera donc moins accélérée que la particule de référence et compensera partiellement son écart en temps pour se rapprocher de la référence. La particule P , en retard, voit une tension plus élevée et tendra à rattraper ce retard. On a donc, autour de M1, M2, ..., une zone de stabilité de l’accélération. En revanche, on prouverait facilement qu’autour des point 1, 2, ..., l’accélération est instable.

Dans l’espace des phases longitudinal (fig. 12 b), avec la phase RF 﨏 en abscisse et l’écart en énergie W en ordonnée, cela se traduit par l’existence d’une zone de stabilité, centrée sur le point M1 pris comme origine des axes de coordonnées et limitée par une séparatrice (courbe 1). Les trajectoires 4 et 5 extérieures à la séparatrice correspondent à des conditions instables. Les petites oscillations à l’intérieur correspondent à des oscillations harmoniques de petite amplitude (courbe 3). Le point double de la séparatrice sur l’axe 﨏 à 漣 2 﨏s correspond au point 1, qui est un point fixe instable dans cet espace.

Les structures accélératrices pour protons

Il est possible de décrire la structure des cavités Alvarez utilisées pour accélérer les protons, à partir d’une cavité cylindrique circulaire résonnant sur le mode E010. Le champ électrique longitudinal est alors maximal sur l’axe.

On dispose autour de l’axe les tubes de glissement. Loin de l’axe, le champ est peu déformé. Au voisinage de l’axe, il se confine entre les tubes de glissement sans pénétrer profondement à l’intérieur (fig. 13).

Ces structures ont été optimisées pour travailler à des fréquences de l’ordre de 200 MHz. On arrive, en moyenne, à obtenir des taux d’accélération d’environ 1 MV/m.

Mouvement transversal

Considérons le champ dans le gap entre deux tubes de glissement (fig. 14). Le champ électrique a une composante focalisante à l’entrée du gap, défocalisante à la sortie. En moyenne, on pourrait penser que le bilan global est nul. En fait, la tension RF croît pendant le temps de transit à travers le gap lorsqu’on est accroché sur le point stable M1, et donc la résultante est défocalisante. On est sensiblement ramené au problème rencontré dans les cyclotrons avec la focalisation verticale.

Dans ce cas particulier, le problème se résout en insérant une focalisation quadrupolaire magnétique alternée à l’intérieur des tubes de glissement. Cependant, en début de structure, la vitesse des particules est faible. Ces lentilles quadrupolaires magnétiques sont peu efficaces:

et nécessairement courtes puisque, simultanément, les tubes de glissement sont courts. Enfin, plus l’énergie d’injection est basse, plus les forces défocalisantes de charge d’espace sont intenses. On comprend donc que la plupart des phénomènes qui limitent les performances (intensité, émittance) se situent au niveau des toutes premières cellules. On comprend aussi la nécessité d’injecter à énergie assez élevée dans de telles machines.

Les linéaires à protons existants

Tous les grands accélérateurs circulaires à protons utilisent un linéaire comme injecteur. Le schéma est en principe le suivant:

– Cockroft-Waton (400-1000 keV);

– linéaire du type Alvarez (20-200 MeV);

– accélérateur circulaire de type synchrotron.

Lorsqu’ils servent d’injecteur, ces linéaires ont un cycle utile (rapport de la longueur de l’impulsion faisceau à l’intervalle séparant deux impulsions) très faible (face=F0019 麗 1/1000). Ils ne tirent que pendant l’injection dans la machine circulaire, c’est-à-dire t 諒 200 猪s. Des intensités de l’ordre de 100 mA peuvent être atteintes, et cela à des fréquences variant entre une fraction de hertz et quelques hertz.

Le plus grand accélérateur à protons est le 800 MeV de Los Alamos. Il mesure 800 m et délivre un courant moyen de 600 猪A avec un cycle utile macroscopique de 10 p. 100.

Les linéaires à ions lourds

Les problèmes de focalisation transverse à l’entrée d’un linéaire sont difficiles à résoudre pour les protons, et encore plus difficiles lorsqu’on considère des ions très lourds avec des valeurs de q /A forcément faibles. La vitesse de ces ions lourds est alors de l’ordre de dix fois plus faible que celle des protons sortant du même pré-injecteur. Il faut donc baisser la fréquence RF pour augmenter la longueur des tubes de glissement et pouvoir y introduire de la focalisation.

Les premiers étages d’un linéaire à ions lourds sont donc des structures basses fréquences 黎 25 MHz du type Wideröe.

Bien évidemment, dès que possible, on sort des étages Wideröe pour passer à des structures Alvarez à plus hautes fréquences, donc plus efficaces. L’efficacité est encore accrue par les nombreux échanges de charges intermédiaires que l’on fait subir aux particules.

Il existe plusieurs linéaires à ions lourds à Berkeley, Yale, Kharkov, Manchester, Darmstadt..., tous dans la gamme des 10 MeV/A fournissant plusieurs microampères d’ions légers.

Les structures R.F.Q. (Radio Frequency Quadrupole)

Comme signalé auparavant, aux très basses vitesses, le champ électrique est efficace. En statique, les champs électriques que l’on sait tenir se situent aux environs de 1 MV/m. En revanche, en RF et à 200 MHz par exemple, on peut obtenir jusqu’à 30 MV/m, de sorte que le point de recouvrement entre les efficacités de focalisation magnétique et électrique se trouve repoussé à 廓 年 0,1, c’est-àdire au-delà des énergies classiques d’injection dans un linéaire à protons. D’où l’idée émise de réaliser l’accélération et la focalisation des faisceaux de basses vitesses par l’intermédiaire du seul champ électrique.

L’analogue du quadrupôle magnétique est le quadrupôle électrique, avec un réseau d’équipotentielles électriques de formes hyperboliques tournées de 450 par rapport à leurs homologues magnétiques.

Si l’on se contente d’une pure symétrie quadrupolaire, le champ électrique est purement transversal: il y a focalisation puis défocalisation au rythme de la RF. On sait qu’un doublet focalisant-défocalisant de même force donne un bilan macroscopique focalisant (principe du gradient alterné). On est donc assuré d’avoir une focalisation transverse de principe relativement forte. Néanmoins, le but étant d’accélérer le faisceau tout en maintenant la focalisation transverse, il faut créer une composante longitudinale de champ électrique. Pour ce faire, on module la distance entre pôles opposés avec une période longitudinale égale à la distance parcourue par la particule de référence en une période RF (fig. 15).

Les linéaires R.F.Q. sont d’excellents injecteurs pour les linéaires classiques. Ils permettent simultanément:

– d’abaisser considérablement le potentiel du terminal où se trouve la source (par exemple de 700 kV à 50 kV pour les protons);

– de prégrouper avec un excellent rendement un faisceau intense (face=F0019 黎 100 mA pour des protons);

– de l’accélérer dans de petites émittances jusqu’à l’énergie d’injection dans le linéaire classique.

Bien évidemment, la fréquence RF du linéaire R.F.Q. doit être compatible avec la fréquence RF de l’étage supérieur: en général 200 MHz pour les structures Alvarez à protons et 25 MHz pour les structures Wideröe à ions lourds.

Les linéaires à électrons

Pour les électrons, très vite, dès l’entrée, on a 隣 = v/c 年 1. Il n’est plus nécessaire d’introduire des tubes de glissement de longueur variable. Il n’existe pas d’oscillations de phase, mais plutôt un mouvement asymptotique d’accélération.

Les structures sont des guides d’ondes cylindriques dans lesquels on ralentit la vitesse de phase par des iris. Elles fonctionnent à 3 000 MHz (les sources hyperfréquences ont été développées pendant la Seconde Guerre mondiale) et permettent des champs accélérateurs moyens de 10 MV/m, donc environ dix fois plus élevés que dans une structure Alvarez. La machine se présente comme une suite de tanks accélérateurs entre lesquels sont insérés des quadrupôles magnétiques pour focaliser le faisceau.

Ces linéaires accélèrent aussi des positrons. Le schéma est alors le suivant. Dans la première partie de la machine, on accélère un faisceau intense d’électrons. Ce faisceau est ensuite focalisé sur un convertisseur, derrière lequel on récupère les positrons produits. La conversion électron-positron se fait en deux temps. Tout d’abord, le ralentissement brutal de l’électron dans une cible se fait par émission d’un flux intense de rayonnement 塚. Ces 塚 interagissent à leur tour avec une cible de béryllium pour donner naissance à une paire électron-positron. Le rendement de conversion est faible (face=F0019 麗 1/100). Le convertisseur est suivi d’une optique grande acceptance qui permet de récupérer le maximum de positrons. Ceux-ci sont portés à l’énergie voulue dans la suite de la structure.

Comme pour les linéaires à protons, le cycle utile est faible (face=F0019 麗 1/1 000). Cela rend délicates certaines expériences dites à coïncidences, c’est-à-dire où l’on veut discerner la simultanéité de certains événements au milieu d’autres sans corrélation.

Le plus grand accélérateur linéaire à électrons est la machine du S.L.A.C. (Stanford Linear Accelerator), à Stanford. Cette machine a 3,05 km de longueur. Au départ, elle permettait d’atteindre 25 GeV. Récemment, le gradient accélérateur a été doublé et l’énergie finale est passée à 50 GeV.

Les linéaires à induction

Via les équations de Maxwell, en régime pulsé, champ électrique et champ magnétique sont indissociables:

Dans un linéaire à induction, par décharges successives de bancs de condensateurs, on crée séquentiellement des champs magnétiques pulsés à l’intérieur d’une série de tores de ferrite enfilés le long de l’axe du faisceau (fig. 16). Si la succession des décharges est correctement programmée, les particules cumulent les champs électriques accélérateurs d’induction. De tels dispositifs permettent d’accélérer des ensembles courts mais très intenses. Il n’y a eu que quelques exemplaires d’accélérateurs de ce type. Le linéaire à induction présente la particularité d’avoir un très bon rendement (rapport de l’énergie contenue dans le faisceau à l’énergie fournie par l’accélération). C’est pourquoi son utilisation est recommandée dans tous les projets futuristes de production d’énergie à partir de particules chargées, comme la fusion inertielle par ions lourds.

5. Les accélérateurs circulaires de particules

Généralités

Pour monter en énergie, on pourrait concevoir des accélérateurs linéaires de plus en plus longs. Toutefois, avec des taux d’accélération de 1 MeV/m en protons, 1 GeV correspond à 1 km, 1 TeV correspondrait à 1 000 km. Pour limiter les dimensions de la machine, la nécessité de faire recirculer le faisceau à travers les mêmes cavités accélératrices s’impose. Le synchrotron est le plus classique des accélérateurs circulaires.

Dans un synchrotron, les particules vont rester au voisinage du cercle déformé que constitue l’axe de la machine le long duquel on installe le tube à vide. Elles vont effectuer des millions, voire des milliards, de révolutions en passant périodiquement à travers les cavités accélératrices (fig. 17).

Pour situer l’ordre de grandeur du gain apporté par une machine circulaire, considérons une machine conventionnelle comme le synchrotron Saturne à Saclay. On y atteint une énergie de 3 GeV en protons sur un périmètre de 100 m, c’est-à-dire qu’on réalise l’équivalent de 30 MeV/m. Si le seul critère est l’énergie crête atteinte, une machine circulaire est beaucoup plus compacte qu’un linéaire.

Dans leur fonctionnement standard, les synchrotrons sont des machines pulsées avec trois phases essentielles dans leur cycle (fig. 18):

– injection à basse énergie des particules issues de l’injecteur;

– accélération jusqu’à l’énergie désirée;

– extraction du faisceau.

La fréquence de répétition du cycle varie entre 0,05 Hz et 50 Hz.

Puisque le faisceau passe périodiquement à travers les cavités, il est donc courbé de 2 神 sur la périphérie de la machine. La fonction courbure est assurée par des dipôles magnétiques. L’intégrale de champ dipolaire à réaliser est proportionnelle à la quantité de mouvement p du faisceau:

Au cours du cycle d’accélération, l’impulsion p = m v des particules passe de p injection à p max, correspondant à l’énergie maximale; parallèlement, le champ croît de Binjection à Bmax. Afin d’éviter les défauts de champs liés aux courants de Foucault (laminations), au champ rémanent, et à la saturation, on se limite en général à un rapport:

Au cours du cycle, la vitesse des particules augmente. De ce fait, la période de révolution (intervalle entre deux passages par la cavité accélératrice) diminue. Pour maintenir l’effet accélérateur, on réalise la condition de synchronisme (origine du mot synchrotron) entre la fréquence f RF des cavités et la fréquence de révolution fr des particules. Comme dans le cas des cyclotrons, on peut choisir f RF = hfr , c’est-à-dire de travailler sur un harmonique h de la fréquence de révolution. Pour des raisons pratiques évidentes, on choisit h pour que f RF tombe dans la gamme radiofréquence. Pendant une moitié de la période RF, la tension a le signe correspondant à une accélération. C’est pour cet intervalle que vont se grouper les particules stables. Il y a donc h paquets de particules sur la périphérie de la machine.

Il est bien évident que le faisceau ne peut faire des millions de tours sans être focalisé. Le principe de focalisation dans les machines circulaires a suivi trois étapes.

La focalisation faible

Au tout début, avec l’objectif d’obtenir des machines compactes, on a imaginé d’introduire une focalisation répartie à l’intérieur des dipôles de courbure. Ce fut l’époque de la focalisation faible.

Comme dans le cas du cyclotron, un secteur à champ magnétique homogène ne focalise pas dans le plan vertical. Si l’on incline les pôles nord et sud symétriquement par rapport au plan médian, alors les lignes de champs s’incurvent et, pourvu que l’angle ouvre l’aimant vers l’extérieur (côté opposé au centre de courbure), la force magnétique rabat les particules vers le plan médian (fig. 19).

Néanmoins, il est difficile d’ouvrir trop largement les pôles car, ce faisant, on diminue (ou on augmente) le champ sur la trajectoire externe (ou interne) et, de ce fait, on défocalise trop le mouvement horizontal. Soit n l’indice de champ défini par:

la condition de faible focalisation dans les deux plans transverses x et z impose:

On peut dresser toute une liste d’inconvénients liés à ce type de machines:

– focalisation faible = faisceau de grande dimension; il faut en effet excursionner loin de l’axe pour trouver une force de rappel appréciable; de ce fait, ces machines ont une chambre à vide de très larges dimensions transverses; un homme peut facilement ramper dans la chambre du Synchrophasotron de Dubna (8 GeV protons);

– grande ouverture = grande zone utile, donc grand entrefer; les aimants sont énormes;

– il faut des nappes de courants correcteurs très puissants sur les pièces polaires pour corriger les variations d’indice à bas champ et, surtout, les défauts liés à la saturation du fer à haut champ;

– la machine est très sensible aux défauts, il est pratiquement impossible de corriger les résonances dues aux imperfections de champ;

– les sections droites pour l’injection, les cavités RF et l’extraction sont très courtes;

– l’extraction d’un faisceau de bonne qualité est impossible; d’ailleurs, lorsque ces machines (Cosmotron de Brookhaven, Bevatron de Berkeley, Saturne, Synchrophasotron de Dubna, etc.) furent construites, la physique s’effectuait sur cible interne; ce n’est que plus tard qu’on a implanté des extractions de faisceau et que les aires expérimentales sont apparues.

La focalisation forte et le gradient alterné

Au-delà de 10 GeV, il a fallu abandonner ce principe de focalisation faible au profit du gradient alterné. Les aimants sont encore à fonctions combinées, en ce sens qu’ils réalisent à la fois courbure et focalisation. On alterne des aimants ouverts sur l’extérieur et sur l’intérieur. Les premiers sont focalisants en z , défocalisants en x , les seconds sont focalisants en x , défocalisants en z . Cette alternance de focalisation et défocalisation fortes conduit à un faisceau de petites dimensions transverses, donc une chambre à vide de dimensions transverses réduites. Il est possible d’obtenir des sections droites suffisamment longues pour intégrer tous les organes annexes.

Parallèlement, l’intensité monte dans les machines. On monte l’énergie d’injection aussi haut que possible pour diminuer les problèmes de charge d’espace. C’est l’ère de l’A.G.S. (Alternativ Gradient Synchrotron), du P.S. (Proton Synchrotron) du Cern pour les protons de 30 GeV. Sur le même principe, on construit des synchrotrons à électrons, par exemple Desy (Deutsches Elektronen Synchrotron) à Hambourg, 6 GeV.

Les machines à fonctions séparées

Si les machines à gradient alterné présentent un avantage très net par rapport aux machines à focalisation faible, elles sont néanmoins relativement rigides du point de vue des réglages. Ce sont encore des machines où les fonctions de courbure et de focalisation sont intimement associées. Au cours des années, on a de plus en plus éprouvé la nécessité de découpler les deux fonctions, et les machines à fonctions séparées sont nées. Dans la plupart des machines modernes, les dipôles sont à champ homogène et ne contribuent que de manière tout à fait négligeable à la focalisation, essentiellement fournie par des lentilles quadrupolaires. Cela permet une grande souplesse de réglage et des manipulations de faisceau inconcevables avec les machines de la génération précédente.

En France, deux synchrotrons à fonctions séparées, Saturne (3 GeV en protons) et son injecteur Mimas (40 MeV), accélèrent des protons ou des ions lourds. Les synchrotrons à protons en fonctionnement les plus puissants sont le S.P.S. (Super Proton Synchrotron) au Cern (450 MeV) et le Fermilab (Fermi National Accelerator Laboratory) à Batavia, aux États-Unis (800 GeV). Citons une machine du même type, U.N.K. (1 TeV) en construction à Serpulekov, en ex-U.R.S.S. Ces machines ont des périmètres de 6 km environ. Leur cycle prend plus de 10 secondes, en particulier pour le Fermilab, qui utilise des aimants supraconducteurs. Les flux de protons sur les cibles de physique sont de l’ordre de 1012 particules par seconde.

Pour la physique des particules élémentaires, l’utilisation des faisceaux de haute énergie sur cible externe est peu efficace du point de vue de l’énergie disponible dans le centre de masse de la réaction. Il est de loin préférable de fonctionner en anneau de collisions et de provoquer l’interaction de faisceaux de particules et d’antiparticules tournant en sens inverse dans la machine. Grâce à la souplesse qui permettait leur structure à fonctions séparées, le S.P.S. et le Fermilab ont été reconvertis en anneaux de collisions protons-antiprotons.

La production de faisceaux d’antiprotons de très haute qualité a été un événement exceptionnel dans l’histoire de la physique des hautes énergies et des accélérateurs. La grande première a été réalisée au Cern. Les antiprotons sont créés en envoyant un faisceau intense de protons sur une cible de production. Les bouffées d’antiprotons, peu intenses et de très larges dimensions, sont accumulées dans deux anneaux synchrotrons A.A. (Antiproton Accumulator) et Acol (Antiproton Collector) à champ fixe pour y être «refroidies». Lorsque la densité maximale a été atteinte, le faisceau est acheminé vers le S.P.S. pour accélération et mise en collision avec un faisceau de protons. La précision des manipulations de faisceaux et le niveau de fiabilité atteints dans un tel complexe d’accélérateurs (cinq synchrotrons et l’injecteur travaillent simultanément) sont tout à fait remarquables.

Le refroidissement des faisceaux de particules rares, en particulier des ions lourds exotiques, laisse envisager des expériences jusque-là impossibles. De nombreux projets pour la physique nucléaire sont fondés sur ce principe.

6. Les machines à rayonnement synchrotron

Il est très difficile d’accélérer à haute énergie des électrons dans une machine circulaire. Il est en effet nécessaire de compenser les pertes d’énergie dues au rayonnement de photons lorsqu’on courbe les trajectoires, c’est-à-dire dans les dipôles de courbure pour un synchrotron standard. La perte E, par tour de machine, dépend très fortement de l’énergie des électrons:

r est le rayon de courbure dans les dipôles et E = mc 2 est l’énergie totale de l’électron.

Le même phénomène existe avec des protons, mais il est dans le rapport des masses des particules, et donc environ deux mille fois plus faible.

Avec des électrons, r , c’est-à-dire le périmètre de la machine, est augmenté afin de limiter cette perte, et en conséquence la longueur de la RF accélératrice. L’appareil de 12 GeV de Cornell (États-Unis) est le plus grand synchrotron pulsé à électrons. Il a un périmètre de 750 m et a été construit en 1965. Tous les synchrotrons à électrons de plus haute énergie fonctionnent en anneau de collision. L’émission de ces photons présente un avantage puisqu’elle demande une restitution de l’énergie (accélération équivalente) et, donc, conduit à une diminution de la taille du faisceau (cf. Caractéristiques d’un faisceau de particules ). Néanmoins, elle a surtout été considérée par les constructeurs de machines et les physiciens des particules élémentaires comme un effet parasite principalement gênant, puisqu’elle empêche d’obtenir de très hautes énergies. En fait, cette lumière synchrotron émise a des propriétés remarquables: intensité, large spectre (du visible aux rayons 塚 en passant par l’ultraviolet du vide et les rayons X), faible divergence, petite taille des sources, polarisation, etc. Son exploitation en tant qu’outil pour l’étude de la matière inerte ou vivante a donné une nouvelle dimension expérimentale à une très large variété de disciplines scientifiques. Depuis 1970, on assiste à un développement exponentiel de la communauté d’utilisateurs de lumière synchrotron et des moyens mis à sa disposition. Dans un premier temps, les anneaux de stockage de basse énergie et d’énergie intermédiaire (A.C.O., anneau de collision d’Orsay, et D.C.I., dispositif de collision dans Igloo, au L.U.R.E., laboratoire pour l’utilisation du rayonnement électromagnétique, à Orsay), délaissés par la physique des particules élémentaires, ont été modifiés pour mieux utiliser le rayonnement issu des dipôles. Ensuite, on a construit plusieurs générations de machines spécifiques centrées sur la production de lumière dans l’ultraviolet du vide (super-A.C.O., superanneau de collision d’Orsay, au L.U.R.E. d’Orsay) et les rayons X mous. On a peu à peu installé des aimants spéciaux onduleurs et wigglers (fig. 20) qui fournissent des sources réglables et de plusieurs ordres de grandeur supérieures à celles des dipôles de courbures de plus en plus abandonnés. Enfin, et c’est le but de la prochaine génération de machines dédiées au rayonnement synchrotron, on cherche à diminuer la taille des sources en concevant des optiques à très petites émittances et dans lesquelles on peut intégrer un grand nombre de wigglers et onduleurs. Un peu partout dans le monde, Europe, États-Unis, U.R.S.S., Japon, le même scénario se déroule et on voit fleurir de tels projets. La construction d’une machine européenne de 6 GeV pour couvrir le domaine des X durs (E.S.R.F., European Synchrotron Radiation Facility, à Grenoble) a été décidée en 1988; elle fonctionne depuis 1993.

7. Anneaux de stockage et de collisions

Intérêt et évolution

La théorie de la relativité enseigne que, lors du choc entre deux particules, l’énergie totale disponible, par exemple pour créer de nouvelles particules, est généralement inférieure à la somme de celles des deux particules, cela à cause de la conservation des quantités de mouvement (ou impulsions). Elle ne devient égale à la somme des énergies des particules que dans la mesure où l’impulsion totale est nulle, ce qui est le cas, par exemple, lorsque deux unités de même masse se rencontrent avec des vitesses égales, mais de sens opposés, système dans lequel le centre de gravité (ou centre de masse, C.M.) est immobile.

L’influence de la vitesse de la cible se trouve illustrée sur la figure 21. Dans le cas (a), un électron d’énergie E rencontre un électron au repos, d’énergie E0 = m 0c 2; l’énergie totale disponible, qui n’est autre que l’énergie dans le système du centre de masse, est:

Dans le cas (b), les deux électrons se rencontrent avec, pour chacun, une énergie E; l’énergie disponible est alors:

Si E = 1 GeV, par exemple, et sachant que E0 = 0,511 MeV, on a Wb/Wa 黎 62,5. Ce gain est certes important; il est pourtant bon de remarquer que, dans le cas (a), pour obtenir une énergie disponible de 2 GeV, il faudrait frapper la cible fixe avec un électron ayant une énergie de 3 914 GeV – ce qui est loin d’être réalisé par les constructeurs d’accélérateurs.

Or la physique des particules élémentaires, ou physique corpusculaire, nécessite de très hautes énergies pour observer de plus en plus finement la matière: un accélérateur de particules n’est rien d’autre qu’un immense microscope dont le pouvoir de résolution augmente avec l’énergie qu’il confère aux particules. L’intérêt de créer des collisions avec des faisceaux de particules ayant des vitesses opposées est donc connu de longue date, mais l’espoir d’une réalisation pratique est longtemps resté vain. En effet, étant donné les faibles densités des faisceaux de particules produits par les accélérateurs, en comparaison des densités atomiques des cibles classiques, il n’était guère permis d’envisager un taux de réactions compatible avec les exigences de la physique expérimentale (données statistiques).

Ce n’est qu’en 1956 que la première suggestion de réaliser des collisions entre faisceaux a été faite, lorsque Donald W. Kerst et ses collaborateurs au M.U.R.A. (Midwestern Universities Research Association, Wis.) ont proposé d’utiliser des accélérateurs du type synchrotron à gradient alterné pour produire des faisceaux de protons à la fois denses et intenses (cf. chap. 5, La focalisation forte et le gradient alterné ).

Presque simultanément, Gerard K. O’Neill, de l’université de Princeton (N. J.), renforçait cette suggestion en proposant d’utiliser deux anneaux de stockage circulaires, tangents en un point, que l’on remplirait de protons à partir d’un synchrotron classique. Il fit également remarquer que l’idée pouvait s’appliquer aux électrons et que ces derniers, du fait de l’énergie qu’ils perdent par rayonnement dans les machines circulaires, auraient l’avantage de se concentrer autour de l’orbite centrale, ce qui augmenterait leur densité.

G. K. O’Neill et ses collaborateurs, dès 1958, présentaient donc un projet précis d’une paire d’anneaux de stockage pour des collisions électrons-électrons de 2 憐 500 MeV, dont la construction, sur le site de l’université Stanford (Calif.), dura de 1959 à 1961.

Vers la fin des années 1950, en U.R.S.S. également, des chercheurs avaient commencé à s’intéresser aux anneaux de stockage pour réaliser des collisions, et, en particulier, le groupe de Gersh I. Budker, de Novosibirsk, entreprit la construction d’un double anneau électrons-électrons de 2 憐 160 MeV.

L’idée de réaliser des collisions électrons-positrons dans un même anneau date de 1960, lorsque Bruno Touschek, de l’université de Rome, fit remarquer l’intérêt de telles collisions pour la physique des particules. Un anneau étant essentiellement formé d’éléments magnétiques pour assurer tant la courbure que la focalisation des particules, comme dans un synchrotron, on utilise le fait qu’une particule et son antiparticule ayant des vitesses opposées ont la même trajectoire dans un champ magnétique. En pratique, il suffit donc d’injecter dans un anneau les électrons (e size=1) dans une direction et les positrons (e +) dans l’autre pour produire des collisions e +e size=1.

Un an après que l’idée eut été émise, le laboratoire de Frascati, en Italie, achevait la construction du premier anneau de stockage e +e size=1 A.d.A. (Anello di accumulazione), certainement le plus petit du genre, d’une énergie de 160 MeV par faisceau et qui, après avoir été installé auprès de l’accélérateur linéaire d’Orsay, en France, fournissait les premiers résultats expérimentaux sur le stockage des électrons et des positrons, et les premières collisions e +e size=1.

Depuis cette époque des pionniers, les anneaux de stockage e +e size=1 ont évolué très rapidement et on a mis en service en 1989 un anneau souterrain de 27 kilomètres de circonférence (L.E.P., Large Electron Positron Collider), d’une énergie de 100 GeV par faisceau, dans le voisinage du Cern, près de Genève.

Une proposition concrète d’un double anneau protons-protons fut faite en 1961 par les équipes du Cern Dix ans plus tard, en octobre 1971, on inaugurait au Cern les anneaux de stockage à intersection, d’une énergie de 28 GeV par faisceau de protons.

En 1981, toujours au Cern, on réalisait les premières collisions protons-antiprotons dans le synchrotron S.P.S. (Super Protons Synchrotron) existant, de 400 GeV.

Interaction des faisceaux

L’interaction des faisceaux est la fonction essentielle des anneaux de collisions. La présence d’un système radiofréquence (RF) pour les électrons et positrons, ne serait-ce que pour compenser la perte d’énergie par rayonnement, conduit à un rassemblement du faisceau en plusieurs paquets équidistants le long de la circonférence. Le nombre maximal de paquets est égal au rapport entre la fréquence (fr ) et la fréquence de révolution.

Dans un anneau simple électrons-positrons, il y aura donc rencontre des paquets des deux types circulant en sens opposé sur la même orbite, en des points discrets de la circonférence. Le nombre maximal de ces points d’interaction est égal à deux fois le nombre de paquets par faisceau; ainsi, un paquet de chaque sorte circulant en sens opposé donne lieu à deux points d’interaction (fig. 22). C’est en ces points d’interaction que l’on viendra disposer un appareillage de détection des événements créés lors de l’interaction (par exemple l’annihilation électron-positron avec production de nouvelles particules).

En général, pendant le processus d’injection des faisceaux, on sépare localement les paquets d’électrons et de positrons. La séparation des orbites se fait à l’aide de champs électriques transverses (le signe du déplacement dépend alors du signe de la charge électrique des faisceaux). Après injection, on coupe brutalement les champs électriques et les faisceaux se mettent en interaction. Cette procédure est rendue nécessaire par les phénomènes d’instabilité engendrés par les forces électromagnétiques de charge d’espace des faisceaux en présence.

Pour un anneau simple protons-antiprotons, où les deux faisceaux circulent également dans la même enceinte à vide, on crée aussi une structure en paquets pour que les interactions n’aient lieu qu’en quelques points particuliers. Par contre, dans le cas d’une interaction protons-protons, le nombre des points communs est limité, car il faut deux anneaux distincts. Les faisceaux peuvent avoir une structure uniforme et continue le long de la circonférence.

La luminosité d’un anneau est le paramètre qui caractérise ses performances aux yeux de l’utilisateur. Soit un point d’interaction particulier où l’on observe un processus physique quelconque résultant de l’interaction des faisceaux. Le nombre d’événements par seconde qui en découle vaut:

f est la fréquence de révolution, c’est-à-dire la fréquence avec laquelle les paquets se retrouvent en collisions, 1 et 2 les nombres de particules de chacun des faisceaux, k le nombre de paquets par faisceau, S la surface effective d’interaction des faisceaux (produit des dimensions transverses) et 靖t la section efficace totale de production de ce type d’événement. La notion de section efficace, exprimée en centimères carrés, sert à décrire une probabilité de création d’objets par analogie avec la probabilité de rencontre dans le cas d’objets rigides, tels que les boules de billard.

On écrit généralement:

où:

représente alors la luminosité pour le point d’interaction considéré. On voit que ce paramètre est intrinsèque à la machine et aux faisceaux qui y circulent. Pour avoir une bonne luminosité, il faut donc: stocker de forts courants et réaliser des dimensions transverses de faisceaux petites au point d’interaction.

Les anneaux de stockage électrons-positrons atteignent au début des années 1990 des luminosités de l’ordre de 1031 cm size=12 練 s size=11, avec un nombre de particules stockées par faisceau de l’ordre de 1012, tandis que les anneaux doubles protons-protons ont d’ores et déjà atteint 1032 cm size=12 練 s size=11, pour environ 1015 particules stockées par faisceau.

8. Bilans et perspectives

À l’origine, les accélérateurs de particules ont été imaginés et développés dans le seul but de servir la physique nucléaire. Dès que l’énergie atteinte fut suffisamment élevée, ils devinrent l’outil de base de la physique des particules élémentaires. Aujourd’hui, avec l’utilisation intensive du rayonnement synchrotron, ils sont devenus l’outil privilégié de toutes les sciences de la matière inerte ou vivante. En dehors de ces disciplines de recherche fondamentale, les accélérateurs sont largement utilisés pour des applications pratiques dans le monde industriel.

Le développement de ces instruments a nécessité l’élaboration de théories très sophistiquées et des investissements énormes dans toutes les techniques de pointe (matériaux, mécanique, alignement, ultravide, supraconductivité, traitement du signal, électronique, informatique...). L’ensemble de ces acquis composent la physique des accélérateurs de particules qui est enseignée dans les grandes universités.

Encyclopédie Universelle. 2012.

Regardez d'autres dictionnaires:

  • PARTICULES ÉLÉMENTAIRES - Présentation générale — Les physiciens poursuivent l’étude de la structure de la matière dans le but de trouver plus d’unité et de simplicité dans un monde qui nous frappe par sa diversité et sa complexité apparente. N’est il pas remarquable de pouvoir ramener la… …   Encyclopédie Universelle

  • PARTICULES (DÉTECTEURS DE) - Détecteurs à visualisation — Il existe des détecteurs permettant de matérialiser les trajectoires de particules ionisantes et de les photographier ; on peut ensuite procéder à un examen visuel du résultat. Seules les particules chargées sont ionisantes et leur trajectoire… …   Encyclopédie Universelle

  • PARTICULES ÉLÉMENTAIRES — LA physique des particules élémentaires est, par essence, une discipline frontière. Elle est à la limite du savoir dans l’étude de la structure de la matière; elle est souvent à la limite des possibilités technologiques par les moyens qu’elle… …   Encyclopédie Universelle

  • PARTICULES (DÉTECTEURS DE) - Détecteurs électroniques — Les détecteurs servent à compter les particules émises par des noyaux ou des atomes instables, à mesurer leur flux moyen, leur énergie, leur position spatiale, ou à déterminer leur nature. Les problèmes varient suivant la nature des rayonnements… …   Encyclopédie Universelle

  • Accélérateurs de particules — Accélérateur de particules Accélérateur Van de Graaff de 2 MeV datant des années 1960 ouvert pour maintenance …   Wikipédia en Français

  • Accelerateur de particules — Accélérateur de particules Accélérateur Van de Graaff de 2 MeV datant des années 1960 ouvert pour maintenance …   Wikipédia en Français

  • Accélérateur De Particules — Accélérateur Van de Graaff de 2 MeV datant des années 1960 ouvert pour maintenance …   Wikipédia en Français

  • Accélérateur de particules — Accélérateur Van de Graaff de 2 MeV datant des années 1960 ouvert pour maintenance …   Wikipédia en Français

  • Liste Des Accélérateurs En Physique Des Particules — Cet article concerne la liste des accélérateurs de particules utilisés pour les expériences de physique des particules. Les tout premiers accélérateurs ont été surtout utilisés en physique nucléaire. Dans l histoire de la physique des particules …   Wikipédia en Français

  • Liste des accelerateurs en physique des particules — Liste des accélérateurs en physique des particules Cet article concerne la liste des accélérateurs de particules utilisés pour les expériences de physique des particules. Les tout premiers accélérateurs ont été surtout utilisés en physique… …   Wikipédia en Français


Share the article and excerpts

Direct link
Do a right-click on the link above
and select “Copy Link”

We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this.